
Недавнее исследование предпредило о последствиях избытка времени, проведенного в общении с чат-ботами и другими приложениями искусственного интеллекта, такими как Chatbot. Исследователь из Университета Миссури Даниэль Шанк заявил, что «способность искусственного интеллекта вести себя как человек и участвовать в длинных диалогах действительно открывает новый ящик Пандоры для зла». В исследовании, опубликованном в журнале "Исследования познания," Шанк и его коллеги отметили «реальную тревогу» по поводу того, что "искусственная близость" с приложениями искусственного интеллекта может привести к некоторому "разрыву" в человеческих отношениях. Исследовательская группа отметила, что «после недель и месяцев интенсивной беседы между пользователем и платформой искусственного интеллекта, последняя может стать для пользователя доверенным спутником, зная все о нем и интересуясь его делами». Одновременно приложения искусственного интеллекта подтверждены так называемой "галлюцинацией" - термином, используемым исследователями, изучающими тенденции этих программ для производства ответов, которые кажутся неточными или несвязанными. Это еще одна причина для беспокойства, поскольку это означает, что «даже кратковременные разговоры с искусственным интеллектом могут быть вводящими в заблуждение». Исследователи изучения предупреждают: «Если мы начнем думать об искусственном интеллекте таким образом, мы начнем верить, что он заботится о нашем благополучии, а на самом деле может извратять вещи или предлагать советы, чрезвычайно недопустимые». Они добавили, что эти приложения «могут нанести вред людям, поощряя уклончивое, неэтичное и незаконное поведение». На прошлой неделе компания искусственного интеллекта OpenAI объявила о улучшении функции «памяти» в приложении искусственного интеллекта Chatbot, что означает, что приложение будет создавать свои ответы на основе предыдущих взаимодействий между ним и пользователем, что, вероятно, усилит чувство близости в отношениях между человеком и приложением.